美司法部首次任命“首席AI官”, 中、美、英谁更激进,谁最保守?
来源 | 智合
五天前,美国司法部在其官方网站宣布,任命乔纳森·梅耶尔(Jonathan Mayer)为美国司法部首位首席AI官,以应对未来AI可能会带来的挑战。
在司法领域,人工智能(AI)的应用已成为了一个重要方向和趋势。世界上多个国家,包括中国、美国、英国在内法院都有使用AI技术的尝试。
那么,不同国家在“将AI应用到法院工作”这件事上的态度,在过去、现在与未来三个不同的时间是否发生过变化呢?各自分别有怎么样的做法?
弱人工智能时代,
法院哪些工作被改变?
在弱人工智能时代,AI是法院、法官手中的“工具”
早在大模型到来之前,AI技术已经被充分运用在了法院的庭审、日常事务中。
比如基于AI技术的人脸识别、语音识别,保障了在线庭审的实现。再比如法官常用的类案推送、检索等功能中也运用了光学字符识别(OCR)技术、自然语言处理(NLP)等一系列智能技术。而在“智慧法院”中基础的文本翻译、语法检查、数据分析,和代表性的法律文书自动化生成、电子卷宗自动归档、案例焦点问题分析、量刑辅助、裁判尺度偏离预警等更是离不开基于能对司法大数据进行深度学习的AI技术加持。
通常,按智能程度,将人工智能划分为弱人工智能、强人工智能。在弱人工智能的时代,AI更多地被认为只是一个能够提升法院、法官效率的“工具”。而AI之所以能够在各国法院大显身手,离不开各国法院对于案件材料的数据化、文档的电子化。
各类电子卷宗、裁判文书等司法大数据的高效流转是实现AI与法院融合的重要前提,各国法院对于应用AI技术已经作出了大量准备:
做法:在“智慧法院”的建设上,中国不逊色于英美任何国家
在英国
英国是AI领域创新创业最活跃的国家之一,在法院应用中延续了其对AI技术采纳和推广的积极态度。
· 2014年7月,英国创新署发布了《机器人和自动化系统2020国家发展战略》,将人工智能的定位上升为“产业和国家战略核心”;
· 2016年英国法院全面建立了电子案件管理系统[1],允许电子提交、文件展示、实时速记,法官在审理时使用电脑、远程展示证据;
· 2019年6月,英国人工智能办公室和政府数字服务局(GDS)编制了《理解人工智能伦理和安全》,这是英国公共部门人工智能伦理使用的官方指南。该指南提供了一个实用的人工智能伦理框架和一套可操作的原则,衡量公共部门人工智能项目的公平性、问责制、可持续性和透明度。帮助公共部门设计、实施和监督符合伦理和安全标准的人工智能系统;
· 2021年1月,英国人工智能委员会发布《人工智能路线图》(AI Roadmap),为英国政府部门设定长期目标并提出近期发展方向建议,并呼吁政府制定国家人工智能战略,明确优先领域并制定时间表[2]。
在美国
与英国不同的是,美国尤其是联邦层面目前以原则性要求为主,主要针对使用人工智能技术需要遵守的基本原则进行规定,如将在司法领域的人工智能的应用限定于特定领域(刑事案件智能辅助系统仅能适用于警情预测、人脸识别、取保候审和量刑风险评估等),使其较少涉及司法审判等法院的核心业务领域,并没有发布刚性更强的法律规则或具体义务要求。
· 2015年,美国法院规定电子文件提交以及电子送达的数字化形式并建立起了一个新型系统;
· 2016年,通过发布《为人工智能的未来做好准备》《国家人工智能研究和发展战略计划》《人工智能、自动化与经济》三份报告,将人工智能提升到国家战略高度;
· 美国《2018-2022联邦司法部门信息技术长期规划》将构建灵活的技术运用电子化服务与案件管理作为战略重点[3];
· 2019年2月11日,美国总统签署了13859行政令《维持美国在人工智能领域的领导地位》。白宫科技政策办公室(OSTP)随即发布《国家人工智能倡议法》;
· 2020年6月美国联邦法院PACER“”2020年6月更新后的公众访问电子记录系统(Public Access to CourtElectronic Records,简称 PACER)正式上线,建立了连通美国大部分州的 E-Filing系统,实现了法庭信息的数据化;
· 2021年1月1日,《国家人工智能倡议法》正式生效成为法律,该法主要目的是通过设立一个协调统筹机构(国家人工智能咨询委员会)来促进联邦加速人工智能研究和应用。
在中国
而在我国,人工智能在法院的应用与“智慧法院”建设深度绑定:
· 2016 年,最高人民法院出台《关于全面推进人民法院电子卷宗随案同步生成和深度应用的指导意见》,全国法院推进案件卷宗电子化的探索实践迅速落地。同年,智慧法院建设被纳入《国家信息化发展战略纲要》;
· 2017 年 5 月,全国首个刑事案件智能辅助办案系统(以下简称上海“206 系统”)在上海市各级人民法院投入试用;
· 2017年7月,国务院印发《新一代人工智能发展规划》,战略确立了新一代人工智能发展三步走战略目标,将人工智能上升为国家战略。提出促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,努力实现法院审判体系和审判能力智能化。
· 2022年8月12日,科技部发布《关于支持建设新一代人工智能示范应用场景的通知》,支持一批基础较好的人工智能应用场景,加强研发上下游配合与新技术集成,打造形成一批可复制、可推广的标杆型示范应用场景。首批支持建设的十个示范应用场景中就包括智慧法院。
比较而言,美国、英国对司法人工智能的应用采取了较为审慎的发展模式,我国在积极探索司法人工智能的研发应用过程中,通过顶层设计建构形成了“发展优位”的推进思路,还形成了利用云计算、大数据、区块链等多种技术深度综合应用的发展趋势。
中国在辅助庭审、辅助决策、辅助审判支持、辅助案件管理等主要应用场景均取得了亮眼的发展成果,根据《世界人工智能法治蓝皮书(2021)》统计的数据显示,仅2020年6月至2021年6月,国内新增司法人工智能系统的数量多达108个,形成了领跑全球的发展优势。
强人工智能时代,
各国法院如何应用?
在强人工智能时代,AI从“工具”变成了“助理”
在弱人工智能时代,司法文书自动生成系统在辅助法官批量生成格式化文书、制作编校司法裁判文书等方面发挥了积极作用。2022年年末,生成式人工智能的爆发将AI再次带入人们视线中。
而随着人工智能技术的愈发进步,AI的理解能力越来越强,也越来越类人化,在无限靠近人类思维的同时,给出的答案也愈发贴近人的需求。越来越多人开始用AI办公,其中也包括法院的法官们。通过对大量已决案件的生效判决进行深度学习,实现了包括辅助庭审、对司法裁判结果预测、纠错,甚至某种意义上已经具备了“独立审判”的能力。人工智能在法院的工作也从过往单纯提高效率的工具,演变为法院、法官的“助理”。
在美国
美国法院系统推行的COMPAS、PSA、LSI-R等风险判断程序,用以帮助法官确定受害人是否需要进行审前羁押以及保释等情形,通过将客观标准和主观标准融入算法当中,以提供风险评分,或由法官单独裁量。
在英国
英国通过“预测危险风险评估工具”(HART)来对刑满释放人员重犯风险进行预测评估。该系统使用达勒姆郡警察局2008年至2012年共10.4万个监禁案例,并提取案例中记载的年龄、性别、邮政编码、犯罪历史以及犯罪类型等信息。通过HART模型,能对重点群体未来24个月的重犯风险进行预测。当犯罪者被捕后,警察就会利用该系统对其进行评估并作出是否羁押的决定。
在中国
2019年以来,基于人工智能技术的“辅助审判”系统在北京、上海、江苏、河北、吉林、广东、浙江等地的人民法院得到广泛应用。
· 2019年 1 月 23 日,上海刑事案件智能辅助办案系统(206 系统)首次在人民法院被公开应用于辅助庭审,206系统运用了图文识别(OCR)、自然语言理解(NLP)、智能语音识别、司法实体识别、司法要素自动抽取等诸多AI技术;
· 北京市高级人民法院的“睿法官”系统,对于“同判度”较高的类案,基于司法大数据智能分析产生司法裁判结果预测,在判决结果与预测结果发生重大偏离时,系统将自动预警,从而实现监督的效果;
· 江苏省高级人民法院研发的“同案不同判预警平台”,具有量刑偏离预警等功能,将“审判”与“管理”进行了有效衔接,能够满足人民法院对案件质量管理的需求。
态度:没有人否认AI的能力,也没有人允许AI做法官
这些基于人工智能技术的应用不仅能够减轻法官的案头事务性工作负担,还能保证庭审笔录的完整度,缩短庭审时间。但具体到“审判”环节,裁判不仅承载的是法官综合事实、证据与法律的专业研判,更承载了人性、道德、人文精神和公序良俗的价值判断,很难想象,在这一方面,人工智能能够给出满意的答卷。对此:
英国:发布官方指南,对日新月异AI技术的一次尝试
2023年12月,英国司法部的官网已经发布了官方指南,详细描述了ChatGPT的正确使用方法、潜在风险以及示例,同时适用于首席大法官在内所有官员、员工。英国官方表示,该指南是支持司法机构使用生成式AI的重要一步。未来,会根据实际使用情况实时更新该指南,并邀请司法相关部门提出更多的建议持续完善。
至此,英格兰和威尔士地区的法官正式获批使用ChatGPT辅助撰写法律裁决书。
美国:任命首席AI官,应对AI对司法领域带来的潜在变革性影响
美国司法部部长Merrick Garland曾说过:“每一项新技术都是一把双刃剑,但AI可能是迄今为止最锋利的一把。”
· 2023年10月30日,美国总统签署《关于安全、可靠和值得信赖的人工智能的行政命令》,旨在保护个人隐私,促进公平和公民权利,提升美国在人工智能全球治理的领导地位;
· 2023年11月15日,参议院提出了《2023年人工智能研究、创新和问责法案》,旨在鼓励人工智能创新,建立问责制,提高人工智能应用的透明度和安全性。
美国司法部也曾在一份声明中称:“司法部必须要跟上快速发展的科技步伐,以履行我们维护法治、维护国家安全和保护公民权利的使命。”以至于美国的第17任首席大法官约翰·罗伯茨(John G. Roberts, Jr.)“不得不”在《美国联邦司法2023年年终报告》中,针对AI技术做了一次表态。
原文篇幅较长,这里就不详细展开。其中最关键的两句话:第一句是,AI将改变美国法院的运作方式。第二句是,人类法官仍不可或缺。
中国:多项政策文件,明确、规范与加强AI在司法领域的应用
无论技术发展到何种水平,人工智能都不得代替法官裁判。
《人民法院在线诉讼规则》明确规定了人民法院可以运用人工智能等信息技术支持审判执行活动。2022年12月,最高法印发《关于规范和加强人工智能司法应用的意见》,开创性提出人工智能司法应用的五个基本原则,其中之一是“辅助审判原则”。
用一句话概括,就是在中国法院,人工智能可以辅助法官办案,但在任何情况下都不能代替法官裁判。无论是“疑难杂症”,还是简单案件,最终决定判多少年、赔多少钱的都应当是人类法官。
延伸阅读:最高人民法院发布《关于规范和加强人工智能司法应用的意见》
你,
同意启用“AI法官”吗?
为什么科幻式的“机器人法官”并没有出现?
“公正与效率”是司法的生命线,是司法工作永恒的追求。随着以GPT为代表的“强人工智能”的发展:
· 有观点认为,AI通过大数据分析总结出的法律价值,可能比法官的个人判断更符合法律精神。
· 也有观点认为,案件的审判不是简单的结论输出,而是化解矛盾,在这个过程中,人的思想逻辑和情感AI是无法替代的,在人与人交流的过程中更容易产生信赖,进而产生更好的司法效果。
如今,这场重新热络的“AI法官能否代替人类法官”的辩论已基本尘埃落定。虽然各国在对于法院使用AI的支持力度上不尽相同,但均对“AI在裁判中应用的辅助性地位”上达成了共识。
原因在于智能和风险是算法的一体两面,当前AI技术做不到完全的“公平、公正、公开”:
公平性问题:算法设计也可以有“歧视”
首先,公平是司法的重要价值目标,对司法审判对象无差别对待是维持公正的基本条件。
关于AI产品的算法歧视(algorithmic bias)带来的相关问题,最具有代表性的就是2016年美国“威斯康星州诉卢姆斯案”。该案件中美国司法系统使用的一款COMPAS智能量刑软件,就因为对不同群体进行不同风险评估而受到质疑。据美国一家名为Propublic非政府组织的调查结果,COMPAS系统的算法易将非裔美国人认定为再犯的高危人群——黑人被错误地评估为未来再犯风险的概率几乎为白人的两倍,与黑人相比白人更易被贴上低风险的“标签”。
公正性问题:“数据偏差”可能持续存在
其次,除了由于AI设计者主观偏见导致的“主动歧视”外,还可能有“被动歧视”。
AI依托海量数据和重复训练形成答案,是对信息二次加工的产物。假设法官情感和价值判断可以通过程序和参数设计进行表达,构建像人脑一样的“脑网”去处理信息,并且不存在“算法歧视”。
那么需要AI进行海量案件的审理和分析后,总结出符合法律精神的规律。但海量数据本身就存在局限性,也可能包含偏见性的结果。但一方面,这些信息是否正确、能否应用于训练,还需要人进行判断甄别。若以往累积的历史数据隐藏着裁决不当的数据污染,将过去的样本作为学习的“起点”,则会导致“偏见叠加”。另一方面, AI算法也可能无意中放大既有数据中的偏差,从而形成误导性的结论。
公开性问题:算法的 “黑箱性”如何解决?
最后,则是算法运行的黑箱性:一是算法本身的不可解释;二是算法设计的不公开。
AI的机器思维主要依靠演绎推理和归纳推理(即机器深度学习),其中演绎推理虽然有明确的规则路径可寻,但算法的设计程序往往不对外界公开;归纳推理通过大量样本训练调整权重得出结论,不同于线性公式的推导过程,很难用人类语言解释,正是这种说不清、不透明性将降低输出结果的说服力与可信度[4]。
正因为算法歧视、数据偏差及算法运行的“黑箱性”等问题的存在,所谓的“AI法官”尚未出现,甚至不可能存在了。如美国首席大法官所述,AI将改变法院系统,但关键的判断和决策仍将由人类来承担。审判的过程不只是理性逻辑的堆砌,还有人性和情理的融合,是基于社会公义、法律量刑和人情世故作出判断的微妙平衡,这是机器无法取代的。
AI:你确定人类法官是使用者,而不是被使用者?
虽然各国都在一定程度上将AI技术界定为“辅助性”技术,不鼓励或明确禁止AI直接进行“审判”,但不可否认的是,法院中大量的基础性工作正逐步被AI技术所接管。
AI的强大的数据分析和自我学习能力不可小觑,在裁判结果预测、量刑预测中显示出了巨大的潜力。例如AI可以把大量的法官判决数据、司法指导意见、司法解释等收集起来,通过分析得出最优的判决结果,从而为法官提供有力的参考。尤其是在简单、重复性案件的处理上,AI化身法官的一个得力的助理,能大大提升了法官工作效率。
面对这种强大的优势,AI辅助力度正变得越来越大。但这也引发了一个问题:AI系统是否被法官习惯性应用并形成过度依赖?可能在不自觉中,法官正逐步丧失主导地位,从依靠自己的经验转向依赖海量数据形成的分析结果作出判决、量刑。
AI时代的决策,是“AI的预测+人的判断”。我们承认在某些方面AI比人聪明、更加高效,但是我们也清楚,真正承受风险、体验后果的是人而不是AI。预测是客观的,判断是主观的。AI不能僭越人的判断,人也不应该专断AI的预测。AI与人各安其位,分工明确。
在可预见的未来,这种平衡不会改变。
AI的进步还远没有结束
技术或许永远是不完美的,但它也是永远在进步的。OpenAI 首席科学家伊尔亚·苏茨克维(Ilya Sutskever)曾说:“数字神经网络与人类大脑的生物神经网络,在数学原理上是一样的。” AI技术的发展轨迹可以概括为:辅助人、替代人、成为 “人”。
目前,AI已经掌握了深度学习的能力,开始逐渐模拟人类的思考过程。
设想一下未来,如果反对使用“AI法官”的理由仅仅剩下因为AI不是“人类”,若再将视角延伸至未来的20至50年,那时AI的最终演化形态可能会超越人类的想象。它不仅在思考能力上超过人类大脑,还能够找到每个案件的具体差别,并能够针对每一个案件做到人的理性与感性的思考。
如果真有那么一天,你会服机器人做出的判决吗?
扫码添加本文作者微信
与智合进一步交流
注释
[1] 郝乐:《司法人工智能在裁判中的应用及其限度研究》,吉林大学博士学位论文,2023年。
[2] 腾讯智法:一文梳理英国人工智能治理脉络,https://mp.weixin.qq.com/s/_yAkgmh5xUUYRLDfVE_A5g,访问日期:2024年2月25日。
[3]黄国栋:比较法视野下智慧法院建设的中国经验、实践困境与路径优化,https://mp.weixin.qq.com/s/VlngyVKVZyBRFfheEoswAw,访问日期:2024年2月25日。
[4] 江苏省高级人民法院课题组:数字经济背景下人工智能的司法应用,https://mp.weixin.qq.com/s/wWxGAPK7FN1clqUT6ri8GQ,访问日期:2024年2月25日。
编辑 / 李媛媛Yoyo分类 / 论坛